Deux Ethiopiens contre Facebook devant la justice kényane


Facebook a tué son père. Plus d’un an et demi après les faits, Abrham Meareg ne trouve pas d’autres mots pour raconter l’assassinat de Meareg Amare, 60 ans, à Bahir Dar, la capitale de la région Amhara, en Ethiopie, le 3 novembre 2021. Le jeune homme, aujourd’hui demandeur d’asile aux Etats-Unis, dirige désormais sa colère froide vers le principal réseau social du monde, Meta.

Lire aussi : Article réservé à nos abonnés En Ethiopie, le conflit global d’Abiy Ahmed, Prix Nobel de la guerre

L’action en justice, qui sera présentée devant un tribunal de Nairobi, au Kenya, mercredi 19 avril, vise à démontrer que Facebook « a autorisé et continue d’autoriser des messages haineux et dangereux » sur sa plateforme, qui ont abouti au meurtre du père d’Abrham Meareg. Sa plainte est soutenue par un concitoyen : le chercheur d’Amnesty International Fisseha Tekle, qui réclame également que « l’algorithme de Facebook et les pratiques de modération des contenus soient modifiés ».

Pour le fils, la mort de son père est la tragique illustration des manquements de Facebook dans son devoir de modération de contenus offensants. En Ethiopie comme dans de nombreux autres pays en développement. Les messages peuvent être dangereux. En l’occurrence, ont-ils été létaux ?

« Allez lui sucer le sang ! »

Professeur d’université respecté, Meareg Amare n’avait pas de compte Facebook. Et n’en avait pas besoin pour comprendre la radicalisation à l’œuvre en Ethiopie, enlisée dans une guerre civile (2020-2022) qui opposait la région insurgée du Tigré – et ses 6 millions d’habitants – aux forces du premier ministre, Abiy Ahmed. Terminé depuis, le conflit fratricide a fait environ un demi-million de victimes, selon plusieurs estimations. Il a surtout déchiré le tissu social de l’Ethiopie, une nation mosaïque de 115 millions d’habitants et composée de dizaines de groupes ethniques.

Meareg Amare était d’origine tigréenne (6 % de la population). Mais celui qui fut l’un des trois seuls professeurs de chimie analytique d’Ethiopie avait fait sa vie et sa carrière à Bahir Dar, en région Amhara, la deuxième plus grande province du pays. Installé depuis trois décennies, « il était l’un des hommes les plus respectés de l’université et de la ville, un vrai sage, estime son fils Abrham. Facebook a détruit tout ce capital social. »

Le 9 octobre 2021, un message provenant d’une page Facebook liée à l’université, « BDU STAFF », publie une photo du professeur accompagnée de cette légende : « Son nom est Meareg. Il est tigréen. On va vous dire la façon dont il commet des abus. » L’adresse de sa maison est indiquée dans le message. La page compte 50 000 followers. La menace est à peine masquée. L’engrenage de la violence aveugle est lancé.

En cet automne 2021, l’Ethiopie est alors en guerre contre elle-même depuis un an. Le conflit du Tigré – aux motifs politique, territorial et ethnique – déborde alors sur les régions voisines, dont l’Amhara. Dans cette dernière, l’heure est à la chasse aux Tigréens, traités « d’espions », de « bandits » et d’autres termes plus dégradants. Les rafles s’enchaînent. La paranoïa s’empare d’une province chauffée à blanc. Sous le message Facebook ciblant le professeur, les commentaires fusent. « Allez lui sucer le sang ! », peut-on lire. Ou encore : « Organisez-vous et nettoyez-les tous ! »

Ni sépulture ni funérailles

Quatre jours plus tard, son fils Abrham Meareg, prévenu par des amis, signale le message auprès de Facebook. « Je l’ai signalé une vingtaine de fois via les outils de la plateforme », raconte-t-il. Meta ne lui répondra qu’un mois plus tard, le 11 novembre, pour lui annoncer « que la page “BDU STAFF” ne va pas à l’encontre des standards de la communauté Facebook ». Mais il est trop tard. Cela fait déjà une semaine que le professeur Meareg est mort.

Le 3 novembre, une embuscade lui avait été tendue alors qu’il rentrait, comme à son habitude, de l’université. Devant son portail, plusieurs hommes, dont des membres des Forces spéciales amhara, l’armée régionale, le traitent de « junta » – un adjectif utilisé pour parler des Tigréens pendant la guerre –, puis tirent à bout portant. Meareg Amare agonise pendant sept heures, sans que personne ne puisse venir lui porter assistance. Il n’aura ni sépulture ni funérailles. Ses effets personnels et sa voiture seront immédiatement pillés ; sa maison, occupée. Sa famille fuit vers la capitale, Addis-Abeba. Un assassinat en toute impunité, suivi d’aucune enquête digne de ce nom.

« L’algorithme n’a pas détecté que les messages étaient non seulement incendiaires mais qu’ils équivalaient à de l’incitation à la violence et à la haine ethnique, ce qui est contraire aux standards de la communauté Facebook », peut-on lire dans la déclaration sous serment d’Abrham Meareg qui conclut : « Les actions et les inactions de Facebook ont conduit à la mort du professeur Meareg et au déplacement de sa famille. »

Newsletter

« Le Monde Afrique »

Chaque samedi, retrouvez une semaine d’actualité et de débats, par la rédaction du « Monde Afrique »

S’inscrire

Facebook-Meta ne s’est jamais exprimé sur ce cas. « Ils m’ont toujours ignoré », assure le jeune homme. Facebook n’a jamais donné suite aux requêtes de Foxglove, une ONG britannique qui soutient la plainte. « Nous ne commentons pas les procédures légales », répond la porte-parole de Meta en Afrique de l’Est, Janet Kemboi, aux demandes d’entretiens formulées par Le Monde. Devant la justice kényane, le géant américain se dérobe, remettant en cause sa compétence pour mieux y échapper.

Deux poids, deux mesures

Facebook se retrouve sous le feu des critiques depuis les révélations de la lanceuse d’alerte Frances Haugen sur les manquements de la plateforme pour modérer les contenus violents. Pour l’Ethiopie, ses 115 millions d’habitants et ses 80 langues, Facebook dispose de moins de trente modérateurs. « On en dénombre environ 260 pour toute l’Afrique de l’Est et australe, une zone qui compte 500 millions d’habitants », précise Tom Hegarty, directeur de la communication de l’ONG Foxglove.

Le problème se situe au niveau de l’algorithme de Facebook, le MSI (pour Meaningful Social Interactions). Celui-ci met en avant les publications les plus susceptibles de susciter de l’engagement. « L’algorithme fait remonter les messages les plus viraux, qui sont souvent les plus extrêmes », selon Fisseha Tekle, chercheur d’Amnesty International, qui accuse Facebook de ne pas avoir su, ou voulu, modérer des appels à la haine et à la violence envers sa personne. Il lui est impossible de retourner dans son pays au risque d’être lui aussi victime de violences.

« De plus, leur business model est discriminant envers les pays du Sud. Lors de la prise du Capitole à Washington, le 6 janvier 2021, Facebook a été très rapide dans son intervention et a bloqué des comptes le jour même. Mais lorsqu’il s’agit d’Afrique, la plateforme ne tient pas ses promesses », conclut Fisseha Tekle. En effet, 87 % du budget de modération de Facebook est consacré aux Etats-Unis, tandis qu’à peine 13 % sont répartis entre 53 pays d’Afrique, d’Amérique latine et du Moyen-Orient.

Le procès intenté par Abrham Meareg et Fisseha Tekle espère mettre fin à ce deux poids, deux mesures. S’il aboutit, Facebook ne sera pas seulement obligé de verser des dommages et intérêts (2 milliards de dollars sont demandés) aux plaignants, mais devra aussi apporter des modifications à son algorithme. Ce serait une première pour le géant californien.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.